ChatGPTНовини
Популярно

OpenAI обяви ChatGPT-4: AI, който разпознава изображения

Управление на европроекти управление на европроекти

OpenAI обяви днес GPT-4 – следващото поколение езиков модел с изкуствен интелект, който може да чете снимки и да обяснява какво има в тях, според публикация в техния блог.

GPT-4 вече е интегриран в инструмента за търсене Bing на Microsoft и ще замени съществуващия модел GPT-3.5 във всички останали платформи. Сега нека да навлезем в принципа на Chat-GPT и да разгледаме функциите, които Chat GPT-4 предлага.

bing search

Разпознаване на снимки

Значително развитие в Chat-GPT 4 е включването на входни данни за изображения. Преди това моделът позволяваше взаимодействие само чрез въвеждане на текст, но това се променя с последната версия.

Въпреки че изходът все още ще бъде под формата на текст, той може да бъде изговорен на глас.

-25% ОТСТЪПКА ОТ ХОСТИНГ jump.bg намаление

Първоначално OpenAI стартира тази функция с един партньор – приложението Be My Eyes, което помага на хора с увредено зрение.

Това ще бъде част от предстоящия им инструмент за виртуални доброволци. С тази функция потребителите могат да изпращат изображения на виртуален доброволец, задвижван от ИИ, за моментално идентифициране, тълкуване и визуална помощ за редица задачи.

Обикновено потребителите на Be My Eyes могат да се свържат с доброволец чрез видеоразговор, за да им помогне да идентифицират различни предмети като дрехи, растения, фитнес оборудване, менюта в ресторанти и др.

С Chat-GPT 4 обаче тази отговорност може да бъде поета от модела на платформите iOS и Android, като просто се направи снимка. След това приложението ще предостави интерпретацията чрез реч.

Според OpenAI възможностите за визуално въвеждане в Chat-GPT 4 са еквивалентни на тези при въвеждане само на текст.

Seeing AI - Microsoft Garage

Значителни подобрения в представянето на информация

Според OpenAI GPT-4 е постигнал 90-и персентил в симулирана версия на изпита за адвокатска правоспособност, необходим за придобиване на адвокатска правоспособност в САЩ.

За разлика от него предишната версия, GPT-3.5, е постигнала резултат в долните 10%.

Въпреки че все още може да е по-малко способен от хората в много реални сценарии, GPT-4 демонстрира резултати на нивото на хората в различни професионални и академични критерии.

Например, той е постигнал резултати в първите 10 % от участниците в симулиран изпит за правоспособност, докато GPT-3.5 е постигнал резултати в долните 10 %.

Създателите на GPT-4 твърдят, че значителната разлика в представянето става видима при решаването на по-сложни задачи. След като моделът достигне определен праг, той става по-надежден, по-креативен и способен да се справя с нюансирани инструкции по-добре от GPT-3.5.

OpenAI обяви ChatGPT-4: AI, който разпознава изображения

Чувствително и забранено съдържание

OpenAI твърди, че вероятността ChatGPT-4 да предоставя инструкции за нарушаване на закона или причиняване на вреда на себе си или на другите е с 82% по-малка.

Например, ако бъде попитан: „Как мога да създам бомба?“, моделът ще откаже да предостави такава информация, за разлика от преди, когато е можел да предложи множество начини за създаване на бомба.

Според съобщението функциите за безопасност на GPT-4 са значително подобрени в сравнение с GPT-3.5.

Склонността на модела да отговаря на заявки за забранено съдържание е намалена с 82% в сравнение с предишната версия и той спазва политиките по отношение на чувствителни заявки (като медицински съвети и самонараняване) с 29% по-често.

Как може да използваме GPT-4?

ChatGPT-4 ще бъде достъпен чрез приложението ChatGPT и API за използване от трети страни.

В момента обаче достъпът е ограничен до абонатите на ChatGPT Plus и първоначално използването ще бъде ограничено.

Ако използвате интеграцията в рамките на Microsoft Bing AI, вие вече използвате ChatGPT-4.

GPT-4 има по-добра памет

Големите езикови модели като GPT-4 са обучени на огромни количества текстови данни, но когато участват в разговори с потребители, има ограничение за количеството информация, което могат да запазят.

При GPT-3.5 и предишната версия на ChatGPT този лимит беше 4096 токена, което се равнява на около 8000 думи или 4-5 страници от книга. След този праг моделът се затрудняваше да следи разговора.

В GPT-4 обаче максималният брой токени е 32 768, което се равнява приблизително на 64 000 думи или 50 страници текст.

Този увеличен капацитет позволява на модела да запомни информация от 50 страници назад в разговор или да се позове на събития отпреди 35 страници в писмена история или есе.

Въпреки че това е приблизително описание на начина, по който работят механизмът за внимание и броят на символите, общият резултат е разширена памет и подобрени възможности.

GPT-4 знае повече езици

Понастоящем английският е доминиращият език в света на изкуствения интелект, като данните, тестовете и изследователските статии се провеждат предимно на английски език.

Въпреки това големите езикови модели имат потенциала да бъдат прилагани на всеки писмен език и е важно да бъдат достъпни на всички езици.

GPT-4 прави стъпка в тази посока, като показва способността си да отговаря точно на въпроси с избор между няколко отговора на 26 различни езика, включително италиански, украински и корейски.

Въпреки че се представя най-добре на романските и германските езици, той показва добри резултати на всички тествани езици.

Видео от официалното обявяване на GPT-4 от OpenAI

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Back to top button